Entropie \(H(X)\) d'une source \(X\)
Quantité définie par l'
Espérance de l'
Information élémentaire détenue par les différentes réalisations d'une
Variable aléatoire : $$H(X)={\Bbb E}[-\log_2(p_X(x))]=-\sum_{x\in\mathcal X}p_X(x)\log_2(p_X(x))$$
- cette quantité est exprimée en bits
- on prend la convention \(0\log_2(0)=0\) pour faire en sortequ'un événement impossible n'intervienne pas dans la somme
- interprétation : correspond au degré d'incertitude (surprise) pour le destinataire
- permet aussi de représenter le nombre de questions nécessaires pour identifier qqch : chaque classe est associée à un message dont la longueur est donnée par son Information élémentaire, et chaque question permet de déchiffrer un caractère du message
- dans ce cas, la meilleure stratégie pour trouver le plus rapidement possible la classe est de maximiser l'entropie pour se rapprocher d'une loi uniforme, et minimiser l'Information élémentaire maximale
- si \(X\) suit une Loi de Bernoulli de paramètre \(p\), on notera son entropie \(h(p)\)
- on a \(H(X)=0\iff\) \(X\) est déterministe
- \(H(X)\) est maximale si \(X\) suit une Loi uniforme
- on a alors \(H(X)=\) \(\log_2(\lvert\mathcal X\rvert)\)
- pour \(\varphi:\mathcal X\to\mathcal Y\), on a \(H(\varphi(X))\leqslant H(X)\), avec égalité si et seulement si \(\varphi\) est injective
- interprétation en codage source : correspond au nombre asymptotique moyen de bits qu'il faut envoyer par symbole (Premier théorème de Shannon)
Questions de cours
START
Ω Basique (+inversé optionnel)
Recto: Ecrire la dérivée de \(p\mapsto\log_2(p)\).
Verso: $$\log_2^\prime(p)=\frac1{p\ln(2)}$$
Bonus:
Carte inversée ?:
END
START
Ω Basique (+inversé optionnel)
Recto: Ecrire la dérivée de \(p\mapsto h(p)\).
Verso: $$\begin{align} h^\prime(p)&=\log_2\left(\frac{1-p}p\right)\\ &=\log_2\left(\frac1p-1\right)\end{align}$$
Bonus: Le maximum de \(h\) est donc atteint pour \(p=\frac12\), et vaut \(1\).
Carte inversée ?:
END
Exercices
'information